Chercheur en IA : "Je peux faire dire ce que je veux à ChatGPT."
Description
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Pierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à mettre en lumière les failles des systèmes d’IA et les risques qu’elles représentent.
———
TIME CODE
0:00 Introduction
0:58 Le jailbreaking
8:45 L’amélioration des performances
13:05 La convergence instrumentale
18:47 Les types de risques
22:56 Les IA boîtes noires
26:05 La nullité des sécurités
29:12 Qui sont vos clients ?
33:01 Retour sur les IA boîtes noires
37:29 Évaluer les capacités
42:08 Une IA qui jailbreak d’autres IA
45:27 Comment jailbreaker les IA ?
48:45 L’état de l’art de l’évaluation des IA
52:54 Capacités vs sécurité
55:12 L’entraînement sur les benchmarks
57:10 La dangerosité de l’évaluation de l’IA
1:01:54 Faut-il mettre les IA en open source ?
1:09:07 Évaluer les systèmes multi agents
1:12:17 Évaluer les IA qui ont accès à internet
1:15:05 Évaluer les IA qui raisonnent
1:17:17 Lien entre intelligence et robustesse
1:20:10 Les obligations d’évaluation
1:22:09 L’évaluation selon la puissance de calcul
1:25:18 Les évaluations indépendantes
1:27:09 L’enjeu de la France en évaluation
1:28:44 Les usages borderline
1:31:57 Les capacités d’humour
1:33:57 Les IA sont des outils ?
1:37:04 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.